多層感知器(MLP)和深度神經網路(DNN)都是神經網路的類型,但它們有一些重要的區別。
多層感知器(MLP):
深度神經網路(DNN):
換句話說,MLP是一種特定類型的神經網路,具有至少三層(輸入層、輸出層和至少一個隱藏層),而DNN則是具有更多或更深層的神經網路。
正則化(Regularization)是一種用於機器學習和神經網絡中的技術,旨在減少模型的過度擬合(overfitting)問題。
過度擬合發生在模型在訓練數據上表現很好,但在新的、未見過的數據上表現很差的情況下,這是因為模型在訓練數據上學到了噪聲或不必要的細節,而忽略了通用的特徵。
正則化的目標是使模型更加泛化,即在新數據上表現更好。
在神經網絡中,最常見的正則化方法包括 L1 正則化和 L2 正則化。
這些方法通常通過修改損失函數或成本函數,引入額外的懲罰項(penalty term)來實現。
L1 正則化(Lasso 正則化):
L1 正則化通常用於權重的稀疏化,可以幫助模型選擇最重要的特徵,並將不重要的特徵的權重變為零。它的數學表示如下:
其中:
L2 正則化(Ridge 正則化):
L2 正則化通常用於防止權重參數變得過大,它的數學表示如下:
其中:
這些正則化項被添加到原始的損失函數中,通常以 的形式,然後通過梯度下降等優化算法來最小化整體成本函數。
正則化有助於避免過度擬合,提高模型的泛化能力,使其在新數據上更好地表現。
選擇正則化參數 是一個重要的超參數調整過程,它可以影響正則化的程度。
神經網絡是一種機器學習模型,模擬了人類神經元之間的信息傳遞,用於學習從數據中提取特徵和解決各種任務。
一個典型的神經網絡可以表示為多個層次的神經元,其中包括輸入層(input layer)、隱藏層(hidden layers)和輸出層(output layer)。
我們用下標表示不同的層,並使用上標表示每個層中的神經元。
輸入層包含特徵或輸入變數,我們用 表示第
個輸入特徵。通常,這些特徵將組成一個向量
,其中
,其中
是特徵的數量。
隱藏層可以有多個層次,我們用 表示第
層的第
個神經元的激活值。這些激活值是根據前一層的輸出計算得出的,通常使用 activation function 進行非線性轉換。具體來說,每個隱藏層的激活值可以通過以下方式計算:
其中:
輸出層的激活值 用於表示神經網絡的輸出。在分類任務中,通常使用 softmax 函數來獲得每個類別的概率分佈。
神經網絡的訓練過程涉及到調整權重和偏差項,以最小化損失函數,以實現所需的任務,例如分類或回歸。
以下是有關 Neural Network 不同類型的架構
歡迎更仔細閱讀以下相關內容以了解本篇知識